12 resultados para Glomerulonefritis recurrente

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los incendios forestales son un problema recurrente en España que produce cada año grandes pérdidas económicas, ambientales y en ocasiones humanas. A la complejidad de los siniestros en España por múltiples factores (clima, fisiografía, propiedad), hay que sumarle la descentralización política, pues las comunidades autónomas tienen la competencia de los incendios forestales, bajo las directrices de una legislación básica del Estado. La estadística de incendios forestales es una herramienta fundamental para el análisis de este fenómeno. Gracias a ella se puede lograr un profundo conocimiento del problema que permita lograr una mejora de los resultados y una optimización de los recursos empleados en su extinción. A partir de los datos de siniestros desde 2001 a 2010 se han elaborado unos indicadores que tienen como objetivo la realización de planes de actuación y prevención para un futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La discusión sobre el origen de los balcones canarios y coloniales ha sido un tema recurrente en los estudios sobre arquitectura canaria y colonial. En muchos de los últimos se observa un olvido o desconocimiento de los balcones canarios. El artículo desarrolla un estudio crítico sobre la discusión del origen de estos balcones a través de las fuentes que tratan sobre las arquitecturas canaria y colonial y relaciona los balcones con sus antecedentes en las arquitecturas tradicionales de la península ibérica. En primer lugar, se analizan los balcones abiertos como solanas y galerías y, en segundo lugar, se estudian las carpinterías cerradas con celosías de influencia oriental: el ajimez y el mucharabí.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los incendios forestales son un problema recurrente en España que produce cada año grandes pérdidas económicas, ambientales y en ocasiones humanas. A la complejidad de los siniestros en España por múltiples factores (clima, fisiografía, propiedad), hay que sumarle la descentralización política, pues las comunidades autónomas tienen la competencia de los incendios forestales, bajo las directrices de una legislación básica del Estado. La estadística de incendios forestales es una herramienta fundamental para el análisis de este fenómeno. Gracias a ella se puede lograr un profundo conocimiento del problema que permita lograr una mejora de los resultados y una optimización de los recursos empleados en su extinción. A partir de los datos de siniestros desde 2001 a 2010 se han elaborado unos indicadores que tienen como objetivo la realización de planes de actuación y prevención para un futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es recurrente lo transmitido en la mayoría de los escritos y por los estudiosos, en el sentido de que el Movimiento Moderno tanto en Latinoamérica como particularmente en Chile, ha sido un movimiento de carácter exógeno, con un alto contenido de desarraigo, sin considerar factores sociales, culturales ni territoriales y que en nuestro país ha sido impuesto como un acto de imitación sin más. Esta tesis pretende dar a conocer a través de la muestra de algunas obras realizadas desde las décadas del cuarenta hasta el sesenta, por un arquitecto reconocido internacionalmente como eximio representante del Movimiento Moderno, cómo esta visión reduccionista queda contradicha en estos trabajos, en los que exhibe notables acercamientos a la problemática social, política, territorial y regional. Con el objeto de precisar mejor el estudio, ha parecido pertinente entregar una visión genérica de nuestro variado territorio, su geografía, las raíces étnicas y su arquitectura; asimismo, se ha considerado importante la comprensión de los procesos históricos, y la forma cómo este movimiento se ha incorporado al territorio y su circunstancia, evoluciones y procesos, frente a los estilos y los acontecimientos políticos, sociales, culturales, guerras y terremotos, comprendidos tanto antes como durante su instauración, consolidación y puesta en marcha o desarrollo, desde las décadas de los veinte al sesenta. Analizaremos algunos ejemplos de obras diseñadas por el arquitecto Emilio Duhart, en diferentes épocas, comenzando por el Proyecto de fin de carrera, y otros tipos de proyectos; urbanos, institucionales, viviendas; que dan cuenta de situaciones y compromisos con la estructura, el territorio, la sociedad, la cultura o la producción local; que permitan comprobar el distanciamiento de este arquitecto con el Movimiento Moderno reduccionista. Además, se mostrarán comparativamente, obras de otros autores, de manera de conformar un cuerpo más sólido, donde se estima han involucrado aspectos similares de territorio, cultura y sociedad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las medidas orientadas a la movilidad sostenible se encuentran generalmente bien desarrolladas, al menos en el plano teórico, para entornos urbanos convencionales, esto es, para ciudades donde la movilidad sigue una pauta esencialmente recurrente y vinculada a motivos como el trabajo y el estudio. Sin embargo, en entornos donde el turismo es una componente predominante, la movilidad es claramente diferente. Las motivaciones de los viajes son diferentes, la valoración del tiempo es diferente, las pautas espacio-temporales son diferentes. Por tanto, las medidas para la sostenibilidad de la movilidad han de ser diferentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fiabilidad está pasando a ser el principal problema de los circuitos integrados según la tecnología desciende por debajo de los 22nm. Pequeñas imperfecciones en la fabricación de los dispositivos dan lugar ahora a importantes diferencias aleatorias en sus características eléctricas, que han de ser tenidas en cuenta durante la fase de diseño. Los nuevos procesos y materiales requeridos para la fabricación de dispositivos de dimensiones tan reducidas están dando lugar a diferentes efectos que resultan finalmente en un incremento del consumo estático, o una mayor vulnerabilidad frente a radiación. Las memorias SRAM son ya la parte más vulnerable de un sistema electrónico, no solo por representar más de la mitad del área de los SoCs y microprocesadores actuales, sino también porque las variaciones de proceso les afectan de forma crítica, donde el fallo de una única célula afecta a la memoria entera. Esta tesis aborda los diferentes retos que presenta el diseño de memorias SRAM en las tecnologías más pequeñas. En un escenario de aumento de la variabilidad, se consideran problemas como el consumo de energía, el diseño teniendo en cuenta efectos de la tecnología a bajo nivel o el endurecimiento frente a radiación. En primer lugar, dado el aumento de la variabilidad de los dispositivos pertenecientes a los nodos tecnológicos más pequeños, así como a la aparición de nuevas fuentes de variabilidad por la inclusión de nuevos dispositivos y la reducción de sus dimensiones, la precisión del modelado de dicha variabilidad es crucial. Se propone en la tesis extender el método de inyectores, que modela la variabilidad a nivel de circuito, abstrayendo sus causas físicas, añadiendo dos nuevas fuentes para modelar la pendiente sub-umbral y el DIBL, de creciente importancia en la tecnología FinFET. Los dos nuevos inyectores propuestos incrementan la exactitud de figuras de mérito a diferentes niveles de abstracción del diseño electrónico: a nivel de transistor, de puerta y de circuito. El error cuadrático medio al simular métricas de estabilidad y prestaciones de células SRAM se reduce un mínimo de 1,5 veces y hasta un máximo de 7,5 a la vez que la estimación de la probabilidad de fallo se mejora en varios ordenes de magnitud. El diseño para bajo consumo es una de las principales aplicaciones actuales dada la creciente importancia de los dispositivos móviles dependientes de baterías. Es igualmente necesario debido a las importantes densidades de potencia en los sistemas actuales, con el fin de reducir su disipación térmica y sus consecuencias en cuanto al envejecimiento. El método tradicional de reducir la tensión de alimentación para reducir el consumo es problemático en el caso de las memorias SRAM dado el creciente impacto de la variabilidad a bajas tensiones. Se propone el diseño de una célula que usa valores negativos en la bit-line para reducir los fallos de escritura según se reduce la tensión de alimentación principal. A pesar de usar una segunda fuente de alimentación para la tensión negativa en la bit-line, el diseño propuesto consigue reducir el consumo hasta en un 20 % comparado con una célula convencional. Una nueva métrica, el hold trip point se ha propuesto para prevenir nuevos tipos de fallo debidos al uso de tensiones negativas, así como un método alternativo para estimar la velocidad de lectura, reduciendo el número de simulaciones necesarias. Según continúa la reducción del tamaño de los dispositivos electrónicos, se incluyen nuevos mecanismos que permiten facilitar el proceso de fabricación, o alcanzar las prestaciones requeridas para cada nueva generación tecnológica. Se puede citar como ejemplo el estrés compresivo o extensivo aplicado a los fins en tecnologías FinFET, que altera la movilidad de los transistores fabricados a partir de dichos fins. Los efectos de estos mecanismos dependen mucho del layout, la posición de unos transistores afecta a los transistores colindantes y pudiendo ser el efecto diferente en diferentes tipos de transistores. Se propone el uso de una célula SRAM complementaria que utiliza dispositivos pMOS en los transistores de paso, así reduciendo la longitud de los fins de los transistores nMOS y alargando los de los pMOS, extendiéndolos a las células vecinas y hasta los límites de la matriz de células. Considerando los efectos del STI y estresores de SiGe, el diseño propuesto mejora los dos tipos de transistores, mejorando las prestaciones de la célula SRAM complementaria en más de un 10% para una misma probabilidad de fallo y un mismo consumo estático, sin que se requiera aumentar el área. Finalmente, la radiación ha sido un problema recurrente en la electrónica para aplicaciones espaciales, pero la reducción de las corrientes y tensiones de los dispositivos actuales los está volviendo vulnerables al ruido generado por radiación, incluso a nivel de suelo. Pese a que tecnologías como SOI o FinFET reducen la cantidad de energía colectada por el circuito durante el impacto de una partícula, las importantes variaciones de proceso en los nodos más pequeños va a afectar su inmunidad frente a la radiación. Se demuestra que los errores inducidos por radiación pueden aumentar hasta en un 40 % en el nodo de 7nm cuando se consideran las variaciones de proceso, comparado con el caso nominal. Este incremento es de una magnitud mayor que la mejora obtenida mediante el diseño de células de memoria específicamente endurecidas frente a radiación, sugiriendo que la reducción de la variabilidad representaría una mayor mejora. ABSTRACT Reliability is becoming the main concern on integrated circuit as the technology goes beyond 22nm. Small imperfections in the device manufacturing result now in important random differences of the devices at electrical level which must be dealt with during the design. New processes and materials, required to allow the fabrication of the extremely short devices, are making new effects appear resulting ultimately on increased static power consumption, or higher vulnerability to radiation SRAMs have become the most vulnerable part of electronic systems, not only they account for more than half of the chip area of nowadays SoCs and microprocessors, but they are critical as soon as different variation sources are regarded, with failures in a single cell making the whole memory fail. This thesis addresses the different challenges that SRAM design has in the smallest technologies. In a common scenario of increasing variability, issues like energy consumption, design aware of the technology and radiation hardening are considered. First, given the increasing magnitude of device variability in the smallest nodes, as well as new sources of variability appearing as a consequence of new devices and shortened lengths, an accurate modeling of the variability is crucial. We propose to extend the injectors method that models variability at circuit level, abstracting its physical sources, to better model sub-threshold slope and drain induced barrier lowering that are gaining importance in FinFET technology. The two new proposed injectors bring an increased accuracy of figures of merit at different abstraction levels of electronic design, at transistor, gate and circuit levels. The mean square error estimating performance and stability metrics of SRAM cells is reduced by at least 1.5 and up to 7.5 while the yield estimation is improved by orders of magnitude. Low power design is a major constraint given the high-growing market of mobile devices that run on battery. It is also relevant because of the increased power densities of nowadays systems, in order to reduce the thermal dissipation and its impact on aging. The traditional approach of reducing the voltage to lower the energy consumption if challenging in the case of SRAMs given the increased impact of process variations at low voltage supplies. We propose a cell design that makes use of negative bit-line write-assist to overcome write failures as the main supply voltage is lowered. Despite using a second power source for the negative bit-line, the design achieves an energy reduction up to 20% compared to a conventional cell. A new metric, the hold trip point has been introduced to deal with new sources of failures to cells using a negative bit-line voltage, as well as an alternative method to estimate cell speed, requiring less simulations. With the continuous reduction of device sizes, new mechanisms need to be included to ease the fabrication process and to meet the performance targets of the successive nodes. As example we can consider the compressive or tensile strains included in FinFET technology, that alter the mobility of the transistors made out of the concerned fins. The effects of these mechanisms are very dependent on the layout, with transistor being affected by their neighbors, and different types of transistors being affected in a different way. We propose to use complementary SRAM cells with pMOS pass-gates in order to reduce the fin length of nMOS devices and achieve long uncut fins for the pMOS devices when the cell is included in its corresponding array. Once Shallow Trench isolation and SiGe stressors are considered the proposed design improves both kinds of transistor, boosting the performance of complementary SRAM cells by more than 10% for a same failure probability and static power consumption, with no area overhead. While radiation has been a traditional concern in space electronics, the small currents and voltages used in the latest nodes are making them more vulnerable to radiation-induced transient noise, even at ground level. Even if SOI or FinFET technologies reduce the amount of energy transferred from the striking particle to the circuit, the important process variation that the smallest nodes will present will affect their radiation hardening capabilities. We demonstrate that process variations can increase the radiation-induced error rate by up to 40% in the 7nm node compared to the nominal case. This increase is higher than the improvement achieved by radiation-hardened cells suggesting that the reduction of process variations would bring a higher improvement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las Field-Programmable Gate Arrays (FPGAs) SRAM se construyen sobre una memoria de configuración de tecnología RAM Estática (SRAM). Presentan múltiples características que las hacen muy interesantes para diseñar sistemas empotrados complejos. En primer lugar presentan un coste no-recurrente de ingeniería (NRE) bajo, ya que los elementos lógicos y de enrutado están pre-implementados (el diseño de usuario define su conexionado). También, a diferencia de otras tecnologías de FPGA, pueden ser reconfiguradas (incluso en campo) un número ilimitado de veces. Es más, las FPGAs SRAM de Xilinx soportan Reconfiguración Parcial Dinámica (DPR), la cual permite reconfigurar la FPGA sin interrumpir la aplicación. Finalmente, presentan una alta densidad de lógica, una alta capacidad de procesamiento y un rico juego de macro-bloques. Sin embargo, un inconveniente de esta tecnología es su susceptibilidad a la radiación ionizante, la cual aumenta con el grado de integración (geometrías más pequeñas, menores tensiones y mayores frecuencias). Esta es una precupación de primer nivel para aplicaciones en entornos altamente radiativos y con requisitos de alta confiabilidad. Este fenómeno conlleva una degradación a largo plazo y también puede inducir fallos instantáneos, los cuales pueden ser reversibles o producir daños irreversibles. En las FPGAs SRAM, los fallos inducidos por radiación pueden aparecer en en dos capas de arquitectura diferentes, que están físicamente superpuestas en el dado de silicio. La Capa de Aplicación (o A-Layer) contiene el hardware definido por el usuario, y la Capa de Configuración contiene la memoria de configuración y la circuitería de soporte. Los fallos en cualquiera de estas capas pueden hacer fracasar el sistema, lo cual puede ser ás o menos tolerable dependiendo de los requisitos de confiabilidad del sistema. En el caso general, estos fallos deben gestionados de alguna manera. Esta tesis trata sobre la gestión de fallos en FPGAs SRAM a nivel de sistema, en el contexto de sistemas empotrados autónomos y confiables operando en un entorno radiativo. La tesis se centra principalmente en aplicaciones espaciales, pero los mismos principios pueden aplicarse a aplicaciones terrenas. Las principales diferencias entre ambas son el nivel de radiación y la posibilidad de mantenimiento. Las diferentes técnicas para la gestión de fallos en A-Layer y C-Layer son clasificados, y sus implicaciones en la confiabilidad del sistema son analizados. Se proponen varias arquitecturas tanto para Gestores de Fallos de una capa como de doble-capa. Para estos últimos se propone una arquitectura novedosa, flexible y versátil. Gestiona las dos capas concurrentemente de manera coordinada, y permite equilibrar el nivel de redundancia y la confiabilidad. Con el objeto de validar técnicas de gestión de fallos dinámicas, se desarrollan dos diferentes soluciones. La primera es un entorno de simulación para Gestores de Fallos de C-Layer, basado en SystemC como lenguaje de modelado y como simulador basado en eventos. Este entorno y su metodología asociada permite explorar el espacio de diseño del Gestor de Fallos, desacoplando su diseño del desarrollo de la FPGA objetivo. El entorno incluye modelos tanto para la C-Layer de la FPGA como para el Gestor de Fallos, los cuales pueden interactuar a diferentes niveles de abstracción (a nivel de configuration frames y a nivel físico JTAG o SelectMAP). El entorno es configurable, escalable y versátil, e incluye capacidades de inyección de fallos. Los resultados de simulación para algunos escenarios son presentados y comentados. La segunda es una plataforma de validación para Gestores de Fallos de FPGAs Xilinx Virtex. La plataforma hardware aloja tres Módulos de FPGA Xilinx Virtex-4 FX12 y dos Módulos de Unidad de Microcontrolador (MCUs) de 32-bits de propósito general. Los Módulos MCU permiten prototipar Gestores de Fallos de C-Layer y A-Layer basados en software. Cada Módulo FPGA implementa un enlace de A-Layer Ethernet (a través de un switch Ethernet) con uno de los Módulos MCU, y un enlace de C-Layer JTAG con el otro. Además, ambos Módulos MCU intercambian comandos y datos a través de un enlace interno tipo UART. Al igual que para el entorno de simulación, se incluyen capacidades de inyección de fallos. Los resultados de pruebas para algunos escenarios son también presentados y comentados. En resumen, esta tesis cubre el proceso completo desde la descripción de los fallos FPGAs SRAM inducidos por radiación, pasando por la identificación y clasificación de técnicas de gestión de fallos, y por la propuesta de arquitecturas de Gestores de Fallos, para finalmente validarlas por simulación y pruebas. El trabajo futuro está relacionado sobre todo con la implementación de Gestores de Fallos de Sistema endurecidos para radiación. ABSTRACT SRAM-based Field-Programmable Gate Arrays (FPGAs) are built on Static RAM (SRAM) technology configuration memory. They present a number of features that make them very convenient for building complex embedded systems. First of all, they benefit from low Non-Recurrent Engineering (NRE) costs, as the logic and routing elements are pre-implemented (user design defines their connection). Also, as opposed to other FPGA technologies, they can be reconfigured (even in the field) an unlimited number of times. Moreover, Xilinx SRAM-based FPGAs feature Dynamic Partial Reconfiguration (DPR), which allows to partially reconfigure the FPGA without disrupting de application. Finally, they feature a high logic density, high processing capability and a rich set of hard macros. However, one limitation of this technology is its susceptibility to ionizing radiation, which increases with technology scaling (smaller geometries, lower voltages and higher frequencies). This is a first order concern for applications in harsh radiation environments and requiring high dependability. Ionizing radiation leads to long term degradation as well as instantaneous faults, which can in turn be reversible or produce irreversible damage. In SRAM-based FPGAs, radiation-induced faults can appear at two architectural layers, which are physically overlaid on the silicon die. The Application Layer (or A-Layer) contains the user-defined hardware, and the Configuration Layer (or C-Layer) contains the (volatile) configuration memory and its support circuitry. Faults at either layers can imply a system failure, which may be more ore less tolerated depending on the dependability requirements. In the general case, such faults must be managed in some way. This thesis is about managing SRAM-based FPGA faults at system level, in the context of autonomous and dependable embedded systems operating in a radiative environment. The focus is mainly on space applications, but the same principles can be applied to ground applications. The main differences between them are the radiation level and the possibility for maintenance. The different techniques for A-Layer and C-Layer fault management are classified and their implications in system dependability are assessed. Several architectures are proposed, both for single-layer and dual-layer Fault Managers. For the latter, a novel, flexible and versatile architecture is proposed. It manages both layers concurrently in a coordinated way, and allows balancing redundancy level and dependability. For the purpose of validating dynamic fault management techniques, two different solutions are developed. The first one is a simulation framework for C-Layer Fault Managers, based on SystemC as modeling language and event-driven simulator. This framework and its associated methodology allows exploring the Fault Manager design space, decoupling its design from the target FPGA development. The framework includes models for both the FPGA C-Layer and for the Fault Manager, which can interact at different abstraction levels (at configuration frame level and at JTAG or SelectMAP physical level). The framework is configurable, scalable and versatile, and includes fault injection capabilities. Simulation results for some scenarios are presented and discussed. The second one is a validation platform for Xilinx Virtex FPGA Fault Managers. The platform hosts three Xilinx Virtex-4 FX12 FPGA Modules and two general-purpose 32-bit Microcontroller Unit (MCU) Modules. The MCU Modules allow prototyping software-based CLayer and A-Layer Fault Managers. Each FPGA Module implements one A-Layer Ethernet link (through an Ethernet switch) with one of the MCU Modules, and one C-Layer JTAG link with the other. In addition, both MCU Modules exchange commands and data over an internal UART link. Similarly to the simulation framework, fault injection capabilities are implemented. Test results for some scenarios are also presented and discussed. In summary, this thesis covers the whole process from describing the problem of radiationinduced faults in SRAM-based FPGAs, then identifying and classifying fault management techniques, then proposing Fault Manager architectures and finally validating them by simulation and test. The proposed future work is mainly related to the implementation of radiation-hardened System Fault Managers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El interés por la problemática contemporánea de los espacios agrarios periurbanos ha despertado una nueva conciencia urbana que afianza la importancia de la preservación de estos espacios agrarios por sus valores ambientales, culturales y productivos, y que comienza a reaprender las posibles ventajas de su proximidad urbana. Entre ellas, la calidad alimentaria. En el análisis de las respuestas a esta problemática, aparece un uso recurrente del término ‘Parque Agrario’ materializado en diversas propuestas con dispares objetivos, escalas y dimensiones. Para aclarar la confusión del término, se estudia el Parque Agrario del Bajo Llobregat. De este caso se induce la estructura organizativa básica de su figura, analizándola de manera poliédrica y multiescalar. El objeto último del trabajo es valorar la sostenibilidad de la figura en función del resultado de su aplicación a un espacio agrario periurbano, tipológico y predispuesto. Su aplicación y fusión con el espacio agrario periurbano dará lugar a otro ‘concepto aplicado’ de parque, que creará y fortalecerá sus propias redes productivas para introducirse en el ciclo alimentario de la ciudad próxima, bloqueando la base territorial frente al proceso urbano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis Doctoral viene a cubrir el vacío existente referido a la arquitectura religiosa de Luis Cubillo de Arteaga, arquitecto conocido fundamentalmente por su aportación a la vivienda social madrileña en los años 50 y 60, pero con una abundante obra sacra. Para ello se ha estudiado la totalidad de su producción, que abarca desde 1954 hasta 1974. La Tesis analiza su arquitectura religiosa desde varios puntos de vista, que incluyen la implantación de los edificios y sus aspectos formales, constructivos y tipológicos, estos últimos especialmente destacados tras las directrices emanadas del Concilio Vaticano II. Previamente se analizan cuatro ámbitos relevantes en la arquitectura religiosa de Cubillo. En primer lugar se estudia la labor de la Dirección General de Asuntos Eclesiásticos, a la que estaba adscrito el arquitecto y para la que realizó sus primeros trabajos. Dentro de ella se expone la evolución del modelo de Seminario entre los años 40 y 60, para analizar la relevancia de la propuesta de Cubillo para el Seminario de Castellón. A continuación se trata la participación de Cubillo en la construcción de la periferia de Madrid, aunque no referida a sus conocidos trabajos sobre vivienda social, sino a los edificios dotacionales. Así mismo se expone una iniciativa hasta ahora inédita de la Comisaría de Ordenación Urbana de Madrid para dotar de centros parroquiales a los nuevos barrios. Un tercer bloque estudia un tema recurrente a finales de los años 50, la integración de las artes en la nueva arquitectura religiosa, propiciada principalmente por José Luis Fernández del Amo. En el caso de Cubillo, las colaboraciones más notables y objeto de estudio en esta Tesis, fueron las realizadas con los artistas Arcadio Blasco y José Luis Sánchez. Por último se describe la situación de la iglesia madrileña posconciliar y su plan de construcción de nuevos templos, en el que jugó un papel muy destacado Cubillo, convertido en arquitecto de confianza de la Oficina Técnica del Arzobispado-------------------------ABSTRACT------------------------------ This Doctoral Thesis fills the emptiness of knowledge about the religious architecture of Luis Cubillo de Arteaga, architect mainly known for his contribution to Madrid's social housing in the 50s and 60s, but with a wide sacred work. To this end it have been studied his entire production, ranging from 1954 to 1974. The thesis discusses his religious architecture from several points of view, including the implementation of the buildings and their formal, constructive and typological aspects, the latter especially important by following the guidelines issued by Vatican II. Previously, four relevant areas in Cubillo’s religious architecture are analyzed. First of all, it’s studied the work of the Department of Ecclesiastical Affairs, to which the architect was assigned and for whom he made his early works. As a part of it, is exposed the evolution of Seminar model between 40s and 60s, to discuss the relevance of Cubillo’s design for the Seminar of Castellón. Next, it´s studied the participation of Cubillo in the construction of the outskirts of Madrid, although not referring to his well known work on social housing, but to the design of the comunitary buildings. It’s also explained an unpublished initiative from Commissariat for Urban Planning of Madrid to provide parish centers to new neighborhoods. A third section examines a recurring theme in the late 50s, the integration of the arts in the new religious architecture, mainly leaded by José Luis Fernández del Amo. For Cubillo, the most notable collaborations, studied in this thesis, were with the artists Arcadio Blasco and José Luis Sánchez. Finally, it´s described the situation of the post-conciliar church in Madrid and its plan to build new temples, with a prominent role of Cubillo, that became in trusted architect of the Technical Office of the Archbishop.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Mezquita-Catedral de Córdoba es un edificio vivo. Un edificio que ha sido transformado sucesivamente por hombres de razas, culturas y religiones distintas durante sus más de 1.200 años de vida y que, a pesar de ello, no ha dejado de estar en uso ni uno solo de esos días de esa larga vida. De esta forma, el edificio se muestra ante el visitante como un complejo objeto arquitectónico, resultado de una continua transformación. La capacidad de la transformación de los edificios es algo inherente a su propia condición arquitectónica, no es un hecho exclusivo de la Mezquita-Catedral. Sin embargo, en este edificio esa transformación se produce con una gran intensidad y sin pérdida de su autenticidad. Tradicionalmente, los edificios se han adaptado a los nuevos requerimientos de cada época en un proceso que ha buscado en el propio edificio las leyes o principios que habían de regir la intervención. De esta forma, tanto las sucesivas ampliaciones de la Mezquita de Abd al-Rahman I como las siguientes intervenciones cristianas debieron asumir lo preexistente como material de trabajo. Así, los arquitectos del califa al-Hakam II dialogaron con sus antecesores complejizando el espacio que recibieron, así como los Hernán Ruiz consiguieron un nuevo organismo resultante de la introducción de su arquitectura luminosa en la trama hispanomusulmana. El siglo XIX confirmó el deseo por descubrir las huellas de un pasado esplendoroso que la intervención barroca había silenciado bajo un tratamiento homogéneo del espacio. La recuperación de esas huellas supuso, hace exactamente dos siglos, el inicio de la última gran etapa en la transformación del edificio, la de la restauración. La fábrica es considerada como objeto a conservar y los esfuerzos desde ese momento se centraron en la recuperación de la arquitectura omeya latente. De este modo, la práctica de la restauración como disciplina se encontró absolutamente influenciada por la Arqueología como única fuente de conocimiento. Las intervenciones buscaban lo original como modo de recuperar espacial y formalmente aquel pasado, concentrándose en los lugares del edificio considerados como esenciales. La declaración del edificio como monumento nacional en 1882 propició que el Estado se hiciera cargo de su mantenimiento y conservación, sustituyendo en esa tarea a los Obispos y Cabildos del siglo XIX, que tuvieron un entendimiento muy avanzado para su época. La llegada del arquitecto Velázquez Bosco en las últimas décadas del siglo XIX supuso un cambio trascendental en la historia del edificio, puesto que recibió un edificio con importantes deterioros y consiguió poner las bases del edificio que hoy contemplamos. El empeño por la recuperación material y espacial devolvió a la Mezquita-Catedral buena parte de su imagen original, reproduciendo con exactitud los modelos hallados en las exploraciones arqueológicas. La llegada de Antonio Flórez tras la muerte de Velázquez Bosco supuso la traslación al edificio del debate disciplinar que se desarrolló en las dos primeras décadas del siglo XX. Flórez procuró un nuevo entendimiento de la intervención, considerando la conservación como actuación prioritaria. En 1926 el Estado reformó la manera en que se atendía al patrimonio con la creación de un sistema de zonas y unos arquitectos a cargo de ellas. La existencia de un nuevo marco legislativo apuntaló esa nueva visión conservativa, avalada por la Carta de Atenas de 1931. Este modelo restauración científica huía de la intervención en estilo y valoraba la necesidad de intervenir de la manera más escueta posible y con un lenguaje diferenciado, basándose en los datos que ofrecía la Arqueología. Por tanto, se continuaba con la valoración del edificio como documento histórico, buscando en este caso una imagen diferenciada de la intervención frente a la actitud mimética de Velázquez. Resulta destacable la manera en la que el historiador Manuel Gómez-Moreno influyó en varias generaciones de arquitectos, arqueólogos e historiadores, tanto en el entendimiento científico de la restauración como en la propia estructura administrativa. La labor desarrollada en el edificio por José Mª Rodríguez Cano primero y Félix Hernández a continuación estuvo influida de manera teórica por el método de Gómez-Moreno, aunque en muchos aspectos su labor no representó una gran diferencia con lo hecho por Velázquez Bosco. La búsqueda de lo original volvió a ser recurrente, pero la carga económica del mantenimiento de un edificio tan extenso conllevó la no realización de muchos de los proyectos más ambiciosos. Esta obsesiva búsqueda de la imagen original del edificio tuvo su última y anacrónica etapa con la intervención de la Dirección General de Arquitectura en los 70. Sin embargo, el agotamiento del modelo científico ya había propiciado un nuevo escenario a nivel europeo, que cristalizó en la Carta de Venecia de 1964 y en una nueva definición del objeto a preservar, más allá del valor como documento histórico. Esta nueva posición teórica tuvo su traslación al modelo restaurador español en el último cuarto de siglo XX, coincidiendo con la Transición. El arquitecto Dionisio Hernández Gil defendió una interpretación distinta a la de los arqueólogos y de los historiadores, que había prevalecido durante todo el siglo. En opinión de Hernández Gil, los problemas de intervención debían enfocarse fundamentalmente como problemas de Arquitectura, abandonando la idea de que solamente podían ser resueltos por especialistas. Esta convicción teórica fue defendida desde la nueva Administración y deparó la utilización de unos criterios de intervención particularizados, provenientes del análisis multifocal de cada situación y no sólo desde el valor de los edificios como documentos históricos. Y este cambio tuvo su traslación a la Mezquita-Catedral con la práctica de Gabriel Ruiz Cabrero y Gabriel Rebollo. En consecuencia con esa nueva perspectiva, aceptaron el edificio que recibieron, sustituyendo la búsqueda de aquella página original por la aceptación de cada una de las páginas de su historia y el respeto a las técnicas constructivas del pasado. La búsqueda de soluciones específicas desde el propio objeto arquitectónico significó la renovada atención a la potente estructura formal-constructiva como origen de toda reflexión. Considerar la Mezquita-Catedral en primer lugar como Arquitectura implicaba la atención a todo tipo de factores además de los históricos, como medio para preservar su autenticidad. Esta tesis pretende demostrar que la práctica de la restauración realizada en la Mezquita-Catedral a lo largo del siglo XX ha evolucionado desde la búsqueda de lo original hasta la búsqueda de lo auténtico, como reflejo de una visión basada en lo arqueológico frente a una renovada visión arquitectónica más completa, que incluye a la anterior. La consideración de la intervención en este edificio como otra página más de su historia y no como la última, significa la reedición de un mecanismo recurrente en la vida del edificio y un nuevo impulso en ese proceso de continua transformación. ABSTRACT The Mosque-Cathedral of Cordoba is a living building. A building transformed by men of different races, cultures and religions during more than 1.200 years old and that, nevertheless, it has continued to be in use all days in that long life. Thus, the building shows to the visitor as a complex architectural object, the result of continuous transformation. This transformation capacity of the buildings is inherent in their own architectural condition, it’s not an exclusive fact of the Mosque-Cathedral. However, in this building that transformation happens with a great intensity, without losing their authenticity. Traditionally, buildings have been adapted to the new requirements of times in a process that looked for laws or principles in order to guide the intervention. Thus, both the successive enlargements of the Mosque of Abd al-Rahman and Christian interventions must assume the preexistence as a working material. So, the architects of the caliph al-Hakam II spoke to their predecessors, complexing the receiving space, as well as Hernan Ruiz got a new organism as result the introduction of his luminous architecture into hispanic-muslim weft. The nineteenth century confirmed the desire to discover the traces of a glorious past that Baroque intervention had silenced, under a uniform space treatment. Exactly two centuries ago, the recovery of these traces meant the start of the last major phase in the transformation of the building: the restoration. The building was considered subject to conserve and since then, efforts focused on the recovery of latent Umayyad architecture. Thus, the practice of restoration as a discipline was absolutely influenced by Archaeology as the only source of knowledge. Interventions were seeking the original as the way to recover that past in a space and formal way, concentrating on essential sites of the building. The statement as a national monument in 1882 prompted the State take charge of its maintenance and preservation, replacing to the nineteenth century Bishops and Cabildos, which had a very advanced understanding for that time. The arrival of the architect Velazquez Bosco in the last decades of the nineteenth century involved a momentous change in the history of the building, since he received a building with significant damage and he achieved the foundations of the building that we can see today. Efforts to a material and space recover returned the Mosque-Cathedral to its original image, accurately reproducing the models found in archaeological explorations. The arrival of Antonio Florez after Velazquez’s death involved the translation of discipline debate, which was developed in the first two decades of the twentieth century. Florez tried a new understanding of the intervention, considering conservation as a priority action. In 1926, the State reformed the way in which heritage was attended, creating a zones system with a few architects in charge of them. The existence of a new legislative framework, underpinned this new conservative vision, supported by the Athens Charter of 1931. This scientific restoration model fleeing from intervention in style and it appreciated the need to intervene in the most concise way, with a distinct language based on the data offered by Archaeology. Therefore, it continued with the appraisement of the building as a historical document, seeking in this case a differentiated image of intervention, against Velazquez mimetic attitude. It is remarkable the way in which the historian Manuel Gomez-Moreno influenced several generations of architects, archaeologists and historians, both in the scientific understanding of the restoration and the administrative structure. The work of Jose Maria Rodriguez Cano first and then Felix Hernandez was theoretically influenced by the Gomez-Moreno’s method, although in many respects their work did not represent a great difference to Velazquez Bosco. The search of the original returned to recur, but the economic charge of maintaining such a large building led to the non-realization of many of the most ambitious projects. This obsessive search for the original image of the building had its last and anachronistic stage with the intervention of the Department of Architecture at 70’s. However, the exhaustion of the scientific model had already led to a new scenario at European level, which crystallized in the Venice Charter of 1964 and a new definition of the object to be preserved beyond the value as a historical document. This new theoretical position had its translation to Spanish restaurateur model in the last quarter of the twentieth century, coinciding with the Transition. The architect Dionisio Hernandez Gil defended a different interpretation from archaeologists and historians, that had prevailed throughout the century. According to Hernandez Gil, the problems of intervention should focus primarily as architectural issues, abandoning the idea that they could only be determined by specialist. This theoretical conviction was defended from the new administration and led to the use of particularized criteria, from a multifocal analysis of each situation. And this change had its translation to the Mosque with the practice of Gabriel Ruiz Cabrero and Gabriel Rebollo. Consistent with this new perspective, they accepted the receiving building, replacing the search on original page for acceptance of all historical pages and respecting the constructive techniques of the past. The search for specific solutions from the architectural object meant the renewed attention to the powerful formal-constructive structure as the origin of all thought. Consider the Mosque-Cathedral as Architecture, involved the attention to all kinds of factors in addition to the historical, as a means to preserve its authenticity. This thesis aims to demonstrate that the practice of restoration in the Mosque-Cathedral throughout the twentieth century has evolved from the search of the original to the search for the authentic, reflecting a vision based on the archaeological against a renewed more complete architectural vision, including the above. Consideration of intervention in this building as another page in its history and not the last one, means the reissue of an own mechanism and a new impetus in that continuous transformation process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gordon Matta-Clark es el origen de la presente investigación. Su obra, de total actualidad, ha ido ganando interés entre la comunidad de arquitectos, si bien su dimensión teórica se ha visto a menudo eclipsada por el poderoso atractivo de sus aberturas, cortes y extracciones. Son muchos los investigadores que detectan una carencia en el estudio de su corpus de pensamiento desde el campo de la crítica arquitectónica a la que está inevitablemente vinculado, a pesar de haber puesto en marcha una potente maquinaria de criticismo. Se constata a su vez la problemática existente al construir dialécticas entre la obra de Gordon Matta-Clark y el ámbito de la práctica arquitectónica. Surgen áreas forzadas de reflexión al elevar ambas esferas al mismo plano, achacado a un desconocimiento de las motivaciones críticas e históricas del proyecto del arquitecto. Aparece de modo recurrente un intento por establecer una dialéctica que, sin embargo, es relegada constantemente a una colección de notas al pie de página: Rem Koolhaas es sesgadamente mencionado por la crítica como el digno continuador accidental de las teorías de Gordon Matta-Clark. Se inicia así la construcción de una dialéctica que permanece aún sin resolver. Rem Koolhaas, en una entrevista en la que vierte su opinión sobre Gordon Matta-Clark, lo considera el precursor accidental de su ‘estrategia de vacío’, reconociendo en su trabajo procesos de adición a través de eliminación como método de creación de espacio arquitectónico. Una visión incisiva que desdeña su faceta de artista destructor destacando su habilidad para inocular el vacío mediante el empleo de herramientas de adición a través de eliminación. Estas premisas dan lugar de forma automática a la hipótesis de partida: la formalización de una investigación que llene ese vacío estableciendo un fuego cruzado entre ambos arquitectos, los cuales comparten de manera fortuita época y escenarios. El discurso de Rem Koolhaas iluminará el pensamiento de Gordon Matta-Clark vinculando sus respectivas plataformas de producción teórica, construyendo un espacio metafórico común en torno a la palabra y la imagen, herramientas que ambos manejan con habilidad y fluidez. Las propuestas del grupo Anarchitecture y las Art Cards o recortes anárquicos de soliloquios mattaclarkianos encuentran su réplica en el diccionario de términos e imágenes “Small, Medium, Large, Extra-Large”, descrito por Rem Koolhaas como una acumulación de palabras e imágenes que ilumina la condición de la arquitectura actual. La investigación establece una profusa asociación de ideas, imágenes y parlamentos que navegan en el universo referencial de Rem Koolhaas aportando una nueva visión sobre la dimensión crítica de Gordon Matta-Clark. Una visión poliédrica alrededor de cinco conceptos clave y un glosario de estrategias de proyecto que abren nuevos umbrales en los que la adición a través de la eliminación se repite hasta la saciedad transformado en mantra arquitectónico. ABSTRACT The present research finds its origins in Gordon Matta-Clark. His work, still relevant today, has been gaining interest within the community of architects, although its theoretical dimension has often been overshadowed by the powerful attraction of his openings, cuts and extractions. Many researchers detect a lack in the study of his body of thought from the field of architectural criticism to which he is inevitably associated, despite having launched a powerful machinery of criticism. It is noted at the same time the problem appeared when different dialectics between the work of Gordon Matta-Clark and the field of architectural practice are established. Forced areas of thought emerge when both fields are observed from the same point of view, derived from a lack of knowledge of the critical and historical motivations of the architect project. An attempt to establish a dialectical relationship with another architect appears recurrently in different books and writings. However it is steadily consigned to a collection of insignificant footnotes: the critics mention Rem Koolhaas as the worthy accidental successor of the theories of Gordon Matta-Clark. The construction of a dialectic that remains unresolved begins at this point. Gordon Matta-Clark is considered by Rem Koolhaas the accidental predecessor of his ‘strategy of emptiness’ -in an interview in which he pours his opinion on him- recognizing processes of addition through elimination in the work of Matta-Clark as a method of building architectural space. Rem Koolhaas rejects his role as destructor artist highlighting his ability to inoculate the emptiness by using addition tools through elimination. These premises lead us automatically to the hypothesis of the research: the formalization of research that will fill the emptiness by setting a crossfire between both architects, who share by chance the same scenarios and time. The discourse given by Rem Koolhaas illuminates Gordon Matta-Clark´s thought by linking their respective theoretical work platforms, building a common metaphorical space around word and image as tools managed by both of them with expertise and fluency. The Anarchitecture proposals and the Art Cards -anarchic cuts of Matta-Clark´s thought- find its counterpart in the dictionary of terms and images included in “Small, Medium, Large, Extra- Large”, described by Rem Koolhaas as an accumulation of words and images that illuminates the condition of architecture today. The research provides a wide range of associations of ideas, images and discussions around the universe of references of Rem Koolhaas, offering a new insight into the critical dimension of the work of Gordon Matta-Clark. A multifaceted vision around five key concepts and a glossary of project strategies that opens up new thresholds in which addition through elimination is repeated endlessly becoming an architectural mantra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los edificios no son máquinas. No lo son, desde luego, si se sigue la definición que da de ellas el Essai sur la composition des machines, el excelente manual publicado en 1808 por dos ingenieros españoles, Betancourt y Lanz, y que fue el primero de su género (Betancourt, 1808:5). Allí las máquinas se presentan como objetos que sirven para dirigir y regular una fuerza o, dicho con mayor sencillez, para producir un movimiento. A nadie se le oculta, sin embargo, que en la arquitectura no hay movimiento, y si lo hay es en un mero sentido figurado, como cuando se tratan los edificios como canales que distribuyen flujos o se incide en su capacidad para transformarse, o como cuando, simplemente, se pone el énfasis en los artefactos movibles que forman parte de ellos. En realidad, la distancia entre las máquinas y los edificios es tan grande que solo puede salvarse con metáforas impropias, pues ni la arquitectura se mueve ni las máquinas se habitan. Sin embargo, las máquinas no han dejado de tratarse como objetos análogos a los edificios y han mesmerizado a los arquitectos, que han creído ver en ellas no solo metáforas, sino modelos rigurosos de organización, cuando no objetos sublimes dignos de imitarse. ¿Qué explica su presencia recurrente en la teoría de la arquitectura de los últimos tres siglos?